- Markowsche Kette
- f COMP Markov chain
Deutsch-Englisch Wörterbuch für Informatik. 2015.
Deutsch-Englisch Wörterbuch für Informatik. 2015.
Markowsche Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markowsche Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markowsche Kettenprozesse — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markowsche Netzwerke — Ein Markov Random Field (kurz MRF) oder Markow Netzwerk ist ein nach dem Mathematiker A. Markow benanntes, statistisches Model welches ungerichtete Zusammenhänge (z. B. die Ausrichtung von Elementarmagneten) in einem Feld beschreibt. Das Feld… … Deutsch Wikipedia